全文获取类型
收费全文 | 71篇 |
免费 | 52篇 |
国内免费 | 16篇 |
专业分类
测绘学 | 6篇 |
大气科学 | 3篇 |
地球物理 | 20篇 |
地质学 | 85篇 |
海洋学 | 16篇 |
综合类 | 4篇 |
自然地理 | 5篇 |
出版年
2023年 | 2篇 |
2022年 | 8篇 |
2021年 | 8篇 |
2020年 | 9篇 |
2019年 | 10篇 |
2018年 | 9篇 |
2017年 | 6篇 |
2016年 | 6篇 |
2015年 | 5篇 |
2014年 | 9篇 |
2013年 | 11篇 |
2012年 | 9篇 |
2011年 | 5篇 |
2010年 | 1篇 |
2009年 | 1篇 |
2008年 | 6篇 |
2007年 | 3篇 |
2006年 | 3篇 |
2005年 | 4篇 |
2004年 | 4篇 |
2003年 | 2篇 |
2000年 | 3篇 |
1999年 | 6篇 |
1998年 | 2篇 |
1997年 | 2篇 |
1996年 | 1篇 |
1994年 | 2篇 |
1988年 | 1篇 |
1982年 | 1篇 |
排序方式: 共有139条查询结果,搜索用时 15 毫秒
91.
利用3种不同水流运移方程分别模拟井管附近不同区域的水流运动, 基于流量守恒原理实现不同流态区域边界的耦合, 建立了有代表性的观测井-含水层系统场景; 利用建立的耦合模型模拟了观测井-含水层系统中水头的分布, 基于模型模拟数据分析了观测井井筒存在对含水层局部水头分布及地下水水质采样和环境监测结果的影响; 还分析了地下水三维水流强度、观测井井径以及含水层介质参数等对井筒效应的影响规律: 井筒效应在粘土等渗透系数和比单位贮水系数相对较小的含水层介质中更为明显, 其影响随着三维水流强度及观测井井径的增加而增大; 进行了上述参数的敏感性分析, 指出对于同一参数其在不同区间的敏感性比例不同, 对于不同参数观测井井径的敏感性比例最大, 因此在地下水环境监测的工程实践中减小观测井井径是相对快速且有效提高监测和采样精度的方法. 相似文献
92.
正Salt Lake brine pump is one of the key equipment in salt lake brine extraction device.As the salt lake brine is a kind of high concentration solution with a variety of chemical constituents,the flow and agitation of saturated 相似文献
93.
94.
井壁失稳是钻井过程中常常遇见的难题之一,尤其在钻遇泥页岩井段。针对河南中牟页岩气区块在山西组-太原组泥页岩钻进过程中发生井壁坍塌掉块、卡钻、井径扩大率大等复杂情况,利用MY1井钻井岩心从泥页岩类型划分、孔渗特征、微观结构、岩石力学以及地应力等方面开展井壁稳定性影响因素实验分析。通过分析可知,中牟区块泥页岩属硬脆性泥页岩,造成井壁失稳的主要因素为地层非均质性强,岩石脆性程度较高,微裂缝发育,易导致井壁机械剥落、坍塌掉块。通过合理控制钻井液密度、优化井身结构及钻井参数、研发低自由水强封堵钻井液提高井壁稳定性,在区块钻井实践中取得了较好的应用效果,基本解决了井壁失稳难题。 相似文献
95.
96.
东胜气田刘家沟组钻井井漏频发,钻井液漏失量大,井漏治理效率低,导致钻井周期长。借助地质和测井资料、电镜扫描等方法,分析刘家沟组裂缝宽度,明确裂缝型井漏机理。统计刘家沟组漏失数据,基于漏失速率与压差关联性,经数据拟合建立漏失压力预测模型,绘制东胜气田漏失压力横向分布剖面,为钻井防漏技术优化提供定量依据。基于循环压耗、激动压力计算模型,形成井筒压力预测方法,分析循环排量、机械钻速、下钻速度和钻井液性能对井筒压力影响规律,进而优化钻井参数。优选刚性颗粒、纤维材料和片状变形材料,优化粒径级配和组分配比,开发随钻预承压堵漏体系,砂床承压能力可以达到7 MPa以上。经现场应用,东胜气田水平井漏失率由57%降至25.7%,平均单井钻井液漏失量减少80.6%,平均单井漏失次数减少88.1%,助力钻井周期缩短。 相似文献
97.
国内应用的天然矿物牙膏磨擦剂主要是方解石。方解石属三方晶系矿物,以菱面体、板状、柱状存在,因此对牙齿的磨擦值波动较大。淡斜绿泥石属层状硅酸盐矿物,片状形态,硬度比方解石低,做牙膏的磨擦剂显然优于方解石。它不仅对牙齿磨损小,而且具有洁齿、护齿性能。 相似文献
98.
OpenStreetMap(OSM)的数据由大众自发标报,因而存在大量虚假、低质量的数据,数据清理是OSM数据走向实用的重要前提。可信度被多位研究者提出作为OSM数据质量的评价手段,但目前OSM数据清理的研究工作中很少顾及众源地理信息的可信度,因此,本文提出了顾及可信度的OSM数据清理模型。该模型首先计算出顾及用户信誉的OSM数据的可信度,再对数据按照属性进行分类,根据不同属性的数据可信度分布情况设置该属性数据相应的阈值并进行清理,对低于阈值的数据进行人工检查,高于阈值的数据则筛选出用户信誉与可信度不相等以及新建的数据进行人工检查,最后采用OSM真实历史数据中的线对象进行实验,实验结果表明:该模型能够有效地清理出绝大部分的虚假以及低质量数据。 相似文献
99.
利用在线地理编码API解决海量中文地址快速编码问题,在此基础上,利用简单的规则对编码结果进行清洗、标记,最后通过基于系统聚类与随机森林的分类优化模型,将多平台编码结果分类处理、优化。利用广州市盗窃案件地址对模型进行训练与验证,结果表明:相比未处理的编码结果,经模型优化过的编码结果整体位置误差距离减小。高德的地理编码服务有着最好的编码质量,但训练样本的高德编码误差均值仍高达590.43 m,经模型优化后,样本的编码误差均值降至173.73 m,验证样本编码误差均值由554.88 m(高德)降至180.04 m,降低了67.49%,高德90.08%的异常编码结果被清洗优化。对于训练样本与验证样本,模型优化效果相似;对于地址类型不同的案件、位于市区与市郊的案件,模型优化效果相似,说明模型具有一定普适性。该模型能够方便快捷地将海量社会经济信息转化为空间数据,提高编码精度,为地理大数据的研究提供更好的数据支持。 相似文献
100.